Aplikacja Meta AI pozwala „odkrywać” dziwnie osobiste rozmowy innych osób

„W jakich hrabstwach młodsze kobiety lubią starszych białych mężczyzn” – głosi publiczna wiadomość od użytkownika na platformie AI Meta. „Potrzebuję szczegółów, mam 66 lat i jestem singlem. Pochodzę z Iowa i jestem otwarty na przeprowadzkę do nowego kraju, jeśli znajdę młodszą kobietę”. Chatbot odpowiedział entuzjastycznie: „Szukasz nowego początku i miłości w nowym miejscu. To ekscytujące!”, zanim zasugerował „kraje śródziemnomorskie, takie jak Hiszpania lub Włochy, a nawet kraje Europy Wschodniej”.
To tylko jedna z wielu pozornie osobistych konwersacji , które można oglądać publicznie na Meta AI , platformie chatbotów, która pełni również funkcję kanału społecznościowego i została uruchomiona w kwietniu . W aplikacji Meta AI zakładka „odkryj” pokazuje oś czasu interakcji innych osób z chatbotem; krótkie przewijanie w dół strony internetowej Meta AI to obszerny kolaż. Podczas gdy niektóre z wyróżnionych zapytań i odpowiedzi są niegroźne — trasy podróży, porady dotyczące przepisów — inne ujawniają lokalizacje, numery telefonów i inne poufne informacje, wszystkie powiązane z nazwami użytkowników i zdjęciami profilowymi.
Calli Schroeder, starsza radczyni prawna w Electronic Privacy Information Center, powiedziała w wywiadzie dla WIRED, że widziała ludzi „udostępniających informacje medyczne, informacje o zdrowiu psychicznym, adresy domowe, a nawet rzeczy bezpośrednio związane z toczącymi się sprawami sądowymi”.
„To wszystko jest niesamowicie niepokojące, ponieważ moim zdaniem wskazuje to na to, że ludzie nie rozumieją, co te chatboty robią lub do czego służą, a także nie rozumieją, jak działa prywatność w tych strukturach” – mówi Schroeder.
Nie jest jasne, czy użytkownicy aplikacji są świadomi, że ich rozmowy z AI Meta są publiczne lub którzy użytkownicy trollują platformę po tym, jak serwisy informacyjne zaczęły o niej informować. Rozmowy nie są domyślnie publiczne; użytkownicy muszą zdecydować, czy chcą się nimi dzielić.
Nie brakuje rozmów między użytkownikami a chatbotem AI Meta, które wydają się być prywatne. Jeden użytkownik poprosił chatbota AI o podanie formatu rozwiązania umowy najmu najemcy, podczas gdy inny poprosił go o podanie ostrzeżenia akademickiego, które zawiera dane osobowe, w tym nazwę szkoły. Inna osoba zapytała o odpowiedzialność swojej siostry za potencjalne oszustwa podatkowe w określonym mieście, korzystając z konta powiązanego z profilem na Instagramie, na którym wyświetlane jest imię i nazwisko. Ktoś inny poprosił go o opracowanie oświadczenia o charakterze dla sądu, które również zawiera niezliczoną ilość danych osobowych zarówno o domniemanym przestępcy, jak i o samym użytkowniku.
Istnieje również wiele przypadków pytań medycznych, w tym osób opowiadających o swoich zmaganiach z wypróżnianiem, proszących o pomoc w przypadku pokrzywki i pytających o wysypkę na wewnętrznej stronie ud. Jeden użytkownik opowiedział Meta AI o swojej operacji szyi i podał swój wiek i zawód w monicie. Wiele, ale nie wszystkie konta wydają się być powiązane z publicznym profilem na Instagramie danej osoby.
Rzecznik Meta Daniel Roberts napisał w oświadczeniu wysłanym e-mailem do WIRED, że czaty użytkowników z Meta AI są prywatne, chyba że użytkownicy przejdą przez wieloetapowy proces, aby udostępnić je w kanale Discover. Firma nie odpowiedziała na pytania dotyczące środków zaradczych wdrożonych w celu udostępniania danych osobowych na platformie Meta AI.
W poście na blogu firmy zapowiadającym aplikację Meta napisała, że „nic nie jest udostępniane w Twoim kanale, chyba że zdecydujesz się to opublikować”. Wspomina również, że użytkownicy mogą polecić swojej sztucznej inteligencji, aby „zapamiętała pewne rzeczy o Tobie” i „udzielała bardziej trafnych odpowiedzi na Twoje pytania, korzystając z informacji, które już wybrałeś do udostępnienia w produktach Meta, takich jak Twój profil i treści, które Ci się podobają lub z którymi się angażujesz”.
„Ludzie naprawdę nie rozumieją, że nic, co wprowadzasz do AI, nie jest poufne” – mówi Schroeder. „Żaden z nas tak naprawdę nie wie, jak wszystkie te informacje są wykorzystywane. Jedyne, co wiemy na pewno, to to, że nie pozostają one między tobą a aplikacją. Trafiają do innych osób, przynajmniej do Meta”.
Po pierwszym uruchomieniu aplikacji AI firmy Meta krytycy szybko wskazali potencjalne problemy z prywatnością, a jeden z nagłówków nazwał ją „ katastrofą prywatności czekającą na zaistnienie”. Pomimo tych obaw tempo rozwoju i wdrażania takiej AI nie wykazuje oznak spowolnienia, szczególnie w Meta: dyrektor generalny Mark Zuckerberg niedawno ogłosił , że asystent AI firmy Meta ma 1 miliard użytkowników na platformach firmy, a doniesiono , że Meta tworzy nowe laboratorium AI kierowane przez współzałożyciela Scale AI Alexandra Wanga, poświęcone budowaniu superinteligencji.
„Czy Meta zdaje sobie sprawę, jak wiele poufnych informacji jej użytkownicy błędnie udostępniają publicznie?” – zapytał w czwartek jeden z użytkowników Meta AI w zapytaniu, które pojawiło się w publicznym kanale.
„Niektórzy użytkownicy mogą nieumyślnie udostępniać poufne informacje z powodu nieporozumień dotyczących domyślnych ustawień platformy lub zmian ustawień w czasie” – odpowiedział chatbot. „Meta udostępnia narzędzia i zasoby, które pomagają użytkownikom zarządzać swoją prywatnością, ale jest to ciągłe wyzwanie”.
wired